Alejandro Urueña
Ética e Inteligencia Artificial (IA) - Founder & CEO Clever Hans Diseño de Arquitectura y Soluciones en Inteligencia Artificial. Magister en Inteligencia Artificial.
María S. Taboada
Lingüista y Magíster en Psicología Social. Profesora Titular de “Linguística General I” y “Política y Planificación Linguísticas” de la Fac. de Filosofía y Letras de la UNT.
En una columna publicada el año pasado en LA GACETA nos interrogábamos si la IA podría llegar a definir los límites entre la guerra y la paz. Hacíamos alusión a las predicciones de Kissinger (2023) sobre las consecuencias catastróficas a las que podía conducir la tecnología aplicada a los conflictos y señalábamos el riesgo de automatización de la guerra.
A seis meses de esa columna, vemos en acción esta automatización: una guerra en la que están implicados cada vez más países y en la que la acción está en manos de la tecnología, controlada o gestionada por un puñado de hombres, que mata a millares, destruye y deja sin hogar a ciudades enteras y está poniendo en riesgo las reservas de energía del mundo (con las consecuencias evidentes en la vida cotidiana de millones). Es una guerra de y por tecnologías: una guerra en la que los intereses privados de las empresas de IA y los intereses geopolíticos de los Estados se ensamblan con altísimos riesgos por los modelos que se emplean y la voracidad neoimperialista de no pocos funcionarios de los Estados implicados.
Una prueba por demás dolorosa, en el contexto del sufrimiento humano de las guerras que se están llevando a cabo, es el bombardeo a la escuela en la que fallecieron decenas de niñas. El ocultamiento primario de los autores del ataque ha dado lugar a una certeza: hubo una falla en la localización del objetivo. ¿Por qué se produjo el error?
Una somera mirada sobre las alianzas entre empresas de IA y Estados puede sugerir la respuesta.
Una alianza amenazante
El empleo de herramientas de IA no se inaugura con este último conflicto bélico. Tiene larga data e innovaciones permanentes. Desde hace tiempo se está empleando para
recopilar y analizar datos provenientes de satélites, drones, tecnologías de vigilancia. Y no sólo recopilar, sino crear armas autónomas, tales como los drones por aire o por agua. Como señala el CEO de Palantir: “usamos datos para matar gente”. Éste es el argumento que el funcionario de defensa estadounidense ha sustentado para solicitar recientemente 200 mil millones de dólares al congreso: reponer tecnología para “matar a los hombres malos”.
La alianza IA-guerra no es nueva. Hace tiempo ya que Estados Unidos utiliza una IA denominada Maven que analiza datos, sugiere objetivos y -según The Guardian- “acorta la cadena de ataque”. En otras palabras, eficiencia en la matanza. Precisamente Maven ha sido aportada por Palantir que, como hemos señalado en otra columna, vende tecnología militar a una buena parte de los países del mundo (que pueden pagarla). Palantir incorpora a su diseño el modelo Claude de Anthropic. Conviene recordar que esta empresa, luego de haber contribuido holgadamente a la tecnología de guerra de Estados Unidos, hoy hace gala de su “independencia” de las alianzas con el Pentágono. The Post ha advertido que fue Claude la IA que sugirió objetivos cuando se planificaba la guerra de Irán y ha permitido que un equipo de 20 personas realice el trabajo de 2000.
Economía para la guerra: Estados Unidos utiliza drones suicidas unidireccionales con capacidad autónoma, basados en tecnología iraní que Rusia usó contra Ucrania. ¿Importan en realidad las ideologías, los proyectos de mundo, la vida de los humanos ciudadanos del planeta, en este “intercambio” de tecnología entre Estados aparentemente enemigos? ¿O se trata de suplantar- como sostiene P. Thiele- el imperio de la tecnología ante el fracaso de la democracia?
Los drones pueden ser efectivos, el problema es que hay un LLM,- en el caso de Maven, Claude- con todas sus limitaciones y su riesgo de alucinaciones en la información o la predicción. Ahí tal vez esté la explicación del “yerro” en el objetivo que terminó en la matanza de la escuela de niñas.
Los proyectos “de defensa” (eufemismo usado normalmente para planificar ataques y matanzas) del Pentágono, lejos de claudicar a partir de las tensiones con Anthropic, se han reforzado con alianzas con otros gigantes, como OpenAi y xAI, agregando ahora la posibilidad de entrenar sus modelos en entornos clasificados .
¿Una catástrofe o un streaming virtual?
Otra cara de la relación entre IA y guerra es la información que nos llega, cómo nos llega y qué hacemos, pensamos, sentimos ante esta hecatombe. ¿O simplemente la miramos por TV? (como decíamos décadas atrás).
Varios especialistas advierten sobre el uso de IA para generar contenido falso de atractivo hollywoodense. Muchos usuarios están usando el llamado vibe coding (instrucciones lingüísticas dadas a un agente de IA) para crear sus propias aplicaciones a fin de seguir el conflicto, en tiempo real y con un diseño similar al de los paneles de inteligencia del Pentágono. El modelo combina información por satélite, noticias, información de aviación, videos de cámaras de vigilancia y funciones de chat abiertos, creando una suerte de plataforma de streaming. La representación de la guerra no se satisface en la supuesta “necesidad” de información, sino que se ha creado una suerte de juego de apuestas sobre el “próximo líder supremo”.
Ante este “teatro interactivo” -como lo denomina O`donnell- cabe preguntarse qué conciencia sobre las realidades conflictivas de este mundo está contribuyendo a generar la IA. La guerra se transforma en videojuego, en apuesta; los límites entre la evidencia y la ficción se diluyen; el sufrimiento se hace ajeno; los sentimientos y los pensamientos se alienan.
En ese contexto, la IA además de ayudar a la matanza, la promociona, al ser utilizada para extirpar la conciencia ética, lo que a todas luces afirma el poderío de las tecnológicas, las decisiones arbitrarias y la voracidad geopolítica de muchos gobiernos. La IA se constituye en tecnología “de defensa”, pero de los propios intereses individuales.
Y mientras miles sufren, hay unos pocos que los miran impávidos por la pantalla.